1
并行转换:将顺序逻辑映射到 GPU 线程
AI024Lesson 4
00:00

并行转换 代表了计算哲学的根本转变,从 时间序列 (一件接一件地执行)转变为 空间分布 (在网格上同时完成所有操作)。

1. 独立性启发法则

这是 GPU 计算的黄金法则: “只要你的问题是对 N 个元素独立地执行某项操作,这就是你应该首先尝试的映射方式。” 这种数据并行方法是 GPU 加速的“低垂果实”——线程管理开销远小于大规模并发处理带来的吞吐量。

2. 精度与数据负载

HIP 内核通常处理大型原始类型数组。在高性能图形和机器学习中,我们常使用 float (单精度),而对极高数值稳定性有要求的科学模拟则使用 double (双精度)。

CPU:时间模式转换核心GPU:空间模式

3. 从迭代到占据

在 CPU 代码中,处理器通过循环来“访问”数据。在 GPU 逻辑中,数据则“占据”一个线程。你不再编写 如何循环 而是开始编写 某个特定坐标上单个工作单元应执行的操作

$$\text{索引 } i = \text{blockIdx.x} \times \text{blockDim.x} + \text{threadIdx.x}$$

main.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>